6. Teoremas Asintóticos#
6.1. Leyes de los grandes números#
Las leyes de los grandes números dicen que la media de una muestra grande está cerca de la media de la distribución de la población. Estas leyes son importantes porque garantizan resultados estables a largo plazo para las medias de algunos eventos aleatorios.
Aquí veamos la ley débil de los grandes números primero.
Sean \(X_1,...X_n\) v.a. independientes idénticamente distribuidas (i.i.d.) de media \(\mu\). Entonces, \(\overline{X}_n=\frac{1}{n}\sum_{i=1}^n X_i\) cumple:
para cualquier \(\epsilon >0\).
¿Cómo se entiende esto?
Usualmente se escribe como
Es decir, la distribución de la media muestral \(\overline{X}_n\) se concentra más alrededor de la verdadera media \(\mu\) a medida que \(n\) se hace grande.
Ahora, ¿puedes aplicar esta ley para explicar por qué podemos obtener la probabilidad utilizando la frecuencia?
Sea \(n\) el número de experimentos, y \(n(A)\) el número de veces que el evento \(A\) ocurre en la realización de esos experimentos, entonces \(P(A) = \frac{n(A)}{n}\)
(Pista: en la ley arriba, cada \(X_i\) puede verse como una variable Bernoulli que indica si el evento \(A\) occure o no).
En concreto, la explicación corresponde a la ley fuerte de Borel de los grandes números que es un caso especial de las leyes más generales de los grandes números.
Formalmente, si n(A) es el número de éxitos en los n experimentos Bernoulli repetidos independientes con la probabilidad de exito p, entonces,
Usualmente se escribe como:
Esta ley vincula el concepto abstracto de probabilidad con la frecuencia, i.e., la proporción de veces que se espera que ocurra un evento (A) determinado es aproximadamente igual a la probabilidad de que ocurra en un ensayo concreto (o la probabilidad real/poblacional).
6.2. Teorema del Límite Central#
La ley de los grandes números dice que la distribución de \(\overline{X}_n\) se acumula cerca de \(\mu\). Pero esto no es suficiente para ayudarnos a aproximar la distribución de probabilidad sobre \(\overline{X}_n\). Para ello necesitamos el teorema del límite central.
El teorema del límite central dice que la media muestral tiene aproximadamente una distribución Normal para una muestra grande.
Sean \(X_1,...X_n\) v.a. i.i.d. de media \(\mu\) y varianza \(\sigma^2\), entonces \(\overline{X}_n=\frac{1}{n}\sum_{i=1}^n X_i\) cumple:
¿Cómo se entiende esto?
Usualmente se escribe como
o
Es decir que es la media muestral \(\overline{X}_n\) se aproxima a una distribución Normal que tiene la misma media y \(\frac{1}{n}\) de la varianza de la distribución de población cuando \(n\) es grande.
Ilustración
Esta simulación puede ayudar a entenderlo: Simulation (Ojo: hay un error en esta simulación, puedes identificalo?)
Este video (en la derecha de la página) demostra una simulación más correcta, aunque le falta mostrar algunos detalles.
Dibujémoslo nosotros mismos! Simulando un cierto número de muestras de distintos tamaños de una distribución definida, y elaborando histogramas de las medias muestrales se obtiene lo siguiente:
suppressMessages(library(dplyr))
suppressMessages(library(plotly))
suppressMessages(library(ggplot2))
suppressMessages(library(rmarkdown))
#caso binomial (5 ensayos, p=0.4)
library(moments)
set.seed(1)
params <- c(1:5, seq(10, 100, by=10), seq(200, 300, by=100)) #tamaños de muestras
nmuestra <- 10000
nensayos <- 5
p <- 0.4
muestra <- matrix(0, nrow=nmuestra, ncol=length(params))
for (i in 1:length(params)){
n <- params[i]
m <- matrix(rbinom(n * nmuestra, nensayos, p), nrow=nmuestra, ncol=n, byrow=TRUE)
medias <- m %*% rep(1, n) / n
esperanza <- nensayos * p
varianza <- nensayos * p * (1 - p)
muestra[,i] <- (medias - esperanza) / sqrt(varianza / n)
}
steps <- list()
max_x <- 4
vec <- seq(-max_x, max_x, 0.05)
pvec_Z <- dnorm(vec)
fig <- plot_ly(width=600,height=600) %>%
layout(title = "\n\n Histograma (convertido en densidad de proba.)\n de medias muestrales, caso binomial",
yaxis = list(range=c(0, 0.8)), xaxis = list(range=c(-max_x, max_x))) %>%
add_lines(x=vec, y=pvec_Z, visible=TRUE, mode='lines', line=list(color='blue'), showlegend=TRUE, name="Z")
for (i in 1:length(params)){
data <- muestra[,i]
fig <- add_histogram(fig, data, histnorm = "probability density", visible=ifelse(i==1, TRUE, FALSE), showlegend=TRUE, xbins=list(start=-4,end=4, size=0.5),
name=sprintf("N=%d, M=%.2f, SD=%.2f, asim=%.2f, curt=%.2f", params[i], mean(data), sd(data), skewness(data), kurtosis(data)))
steps[[i]] <- list(args = list('visible', rep(FALSE, length(params)+1)), label=params[i], method='restyle')
steps[[i]]$args[[2]][1] <- TRUE
steps[[i]]$args[[2]][i+1] <- TRUE
}
fig <- fig %>% layout(sliders=list(list(active=0, currentvalue = list(prefix = "N: "), steps=steps)), legend=list(x=0.1, y=0.85))
fig